1
Di Luar Batas Pengetahuan: Mengapa LLM Perlu Data Eksternal
AI011Lesson 6
00:00

Di Luar Batas Pengetahuan

Model Bahasa Besar sangat kuat, tetapi mengalami keterbatasan mendasar: batas Batas Pengetahuan. Untuk membangun sistem AI yang andal, kita harus menutup kesenjangan antara data pelatihan statis dan informasi dunia nyata yang dinamis.

1. Masalah Batas Pengetahuan (Apa)

LLM dilatih menggunakan dataset besar namun statis dengan tanggal akhir tetap (misalnya batas September 2021 untuk GPT-4). Akibatnya, model tidak dapat menjawab pertanyaan tentang peristiwa terkini, pembaruan perangkat lunak, atau data pribadi yang dibuat setelah periode pelatihannya.

2. Halusinasi vs. Realitas (Mengapa)

Ketika ditanya tentang data yang tidak diketahui atau setelah batas pengetahuan, model sering halusinasiโ€”membuat fakta yang terdengar masuk akal tetapi sama sekali salah demi memenuhi permintaan. Solusinya adalah Pemantapan: memberikan konteks waktu nyata dan dapat diverifikasi dari basis data eksternal sebelum model menghasilkan jawaban.

3. RAG vs. Fine-Tuning (Bagaimana)

  • Fine-Tuning: Memperbarui bobot internal model sangat mahal secara komputasi, lambat, dan menghasilkan pengetahuan statis yang cepat menjadi usang kembali.
  • RAG (Generasi Diperkuat Pencarian): Sangat hemat biaya. Ia mengambil informasi yang relevan secara langsung dan menyisipkannya ke dalam permintaan, memastikan data tetap terkini serta memungkinkan pembaruan mudah pada basis data tanpa harus melatih ulang.
Kesenjangan Data Pribadi
LLM tidak memiliki akses ke manual perusahaan internal, laporan keuangan, atau dokumen rahasia kecuali secara eksplisit diintegrasikan melalui pipeline pencarian.
grounding_check.py
TERMINALbash โ€” 80x24
> Ready. Click "Run" to execute.
>
Question 1
Why is Retrieval Augmented Generation (RAG) preferred over fine-tuning for updating an LLM's knowledge of daily news?
Fine-tuning prevents hallucinations entirely.
RAG is more cost-effective and provides up-to-date, verifiable context.
RAG permanently alters the model's internal weights.
Fine-tuning is faster to execute on a daily basis.
Question 2
What term describes an LLM's tendency to invent facts when it lacks information?
Grounding
Embedding
Hallucination
Tokenization
Challenge: Building a Support Bot
Apply RAG concepts to a real-world scenario.
You are building a support bot for a new product released today. The LLM you are using was trained two years ago.
Product Manual
Task 1
Identify the first step in the RAG pipeline to get the product manual into the system so the LLM can search it.
Solution:
Preprocessing (Cleaning and chunking the manual text into smaller, searchable segments before embedding).
Task 2
Define a "System Message" that forces the LLM to only use the provided documents and prevents hallucination.
Solution:
"Answer only using the provided context. If the answer is not in the context, state that you do not know."